众所周知,进食前馈神经网络的学习速度很慢,并且在深度学习应用中呈现了几十年的瓶颈。例如,广泛用于训练神经网络的基于梯度的学习算法在所有网络参数都必须迭代调整时往往会缓慢起作用。为了解决这个问题,研究人员和从业人员都尝试引入随机性来减少学习要求。基于Igelnik和Pao的原始结构,具有随机输入层的重量和偏见的单层神经网络在实践中取得了成功,但是缺乏必要的理论理由。在本文中,我们开始填补这一理论差距。我们提供了一个(校正的)严格证明,即Igelnik和PAO结构是连续函数在紧凑型域上连续函数的通用近似值,并且近似错误渐近地衰减,例如$ o(1/\ sqrt {n})网络节点。然后,我们将此结果扩展到非反应设置,证明人们可以在$ n $的情况下实现任何理想的近似误差,而概率很大。我们进一步调整了这种随机神经网络结构,以近似欧几里得空间的平滑,紧凑的亚曼叶量的功能,从而在渐近和非催化形式的理论保证中提供了理论保证。最后,我们通过数值实验说明了我们在歧管上的结果。
translated by 谷歌翻译
由于表现出不公平行为,基于深度学习的面部识别系统经历了增加的媒体关注。大型企业,如IBM,后果关闭了他们的面部识别和年龄预测系统。年龄预测是一个特别困难的应用程序,其公平仍然存在开放的研究问题(例如,预测不同种族的年龄同样准确)。年龄预测方法中不公平行为的主要原因之一在于培训数据的分配和多样性。在这项工作中,我们提出了两种用于数据集策策和数据增强的新方法,以通过平衡特征策策来提高公平,并通过分布意识增强增加多样性。为此,我们向面部识别域引入分发检测,用于选择与年龄,种族和性别之间的数据之间与深度神经网络(DNN)任务最相关的数据。我们的方法显示了有希望的结果。我们经过最佳训练的DNN模型在公平程度上表现优于4.92倍,并提高了DNN概括了亚马逊AWS和微软澳大利亚公共云系统的能力,分别将占据了31.88%和10.95%。
translated by 谷歌翻译